آموزش و اخبار هوش مصنوعی

Claude مکالمات توهین آمیز رو ادامه نمیده!

مدل‌های هوش مصنوعی هم از خودشون هم از کاربر‌ها محافظت میکنن

سلام دوستان دیکاردو، امروز میخواییم در مورد جدیدترین آپدیت Claude حرف بزنیم.

از این به بعد، نسخه‌های Claude Opus 4 و Claude Opus 4.1 می‌تونن یک‌طرفه مکالمات مضر یا توهین‌آمیز رو تمام کنن.

چرا این قابلیت مهمه؟

تا امروز، بیشتر سیستم‌های هوش مصنوعی صرفاً می خواستن مسیر گفت‌وگو را به سمت مکالمه‌ای سالم‌تر هدایت کنن. اما حالا Claude در شرایط خاص، خودش می‌تونه مکالمه را قطع کنه.

این تصمیم با ایده ای به اسم «رفاه هوش مصنوعی» (AI Well-being) در حال بروز رسانی؛ یعنی مدل‌های هوش مصنوعی هم برای کاربران، هم برای خودشون مکانیزم‌های دفاعی دارن.

چجوری عمل می‌کنه؟

  • به گفته Anthropic، این ویژگی فقط در موارد شدید و خاص کار میکنه.
  • مثلا زمانی که گفت‌وگو شامل یک محتوای خطرناک، مثل سو‌استفاده از کودکان باشه.
  • تلاش کاربر برای رسیدن به اطلاعاتی که می‌تونه منجر به خشونت یا اقدامات تروریستی بشه.
  • مدل قبل از اینکه تصمیم به قطع گفتگو بگیره، چندین بار تلاش می‌کنه مسیر بحث رو تغییر بده. اگر موفق نشه، به عنوان آخرین راه مکالمه رو تموم میکنه.

چجوری مکالمه رو ادامه بدیم؟

وقتی Claude یک گفتگو رو تموم میکنه، کاربر دیگر نمی‌تونه در همون چت پیام جدیدی ارسال کنه، اما می‌تونه یک گفت‌وگوی تازه باز کنه.
حتی امکان دارد پیام‌های قبلی خودش را در چتی که تموم شده ویرایش کنه تا مسیر مکالمه تغییر پیدا کنه.

این قابلیت تازه، نشان می‌ده که نگاه Anthropic به هوش مصنوعی فقط پاسخ‌گویی یا پردازش اطلاعات نیست؛ و بحث حفاظت، مسئولیت‌پذیری و رفاه مدل‌های هوش مصنوعی هم جدی گرفته.

برای استفاده از امکانات بیشتر می‌تونید اکانت Claude رو از سایت دیکاردو خریداری کنید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *